05
Oggi parliamo di
- Ancora normalizzazione
- Imputazione
- Linear regression
- Ridge Regression
- Lasso Regression
- Elasticnet
Denormalizzazione
- Con lo scaling abbiamo visto che le feature vanno normalizzate.
- Modelli ad albero sono insensitive alla normalizzazione (non alle differenti forme di distribuzione dei dati).
- Modelli KNN, lineari e quasilineari (SVM, reti neurali) sono sendibili alla normalizzazione: feature più grandi sono favorite


Imputation (come comportarsi con i valori mancanti)

Imputazione

Metodi di imputazione







Modelli lineari per la regressione

Dalla statistica sappiamo che i modelli lineari bene se il RESIDUO (y_vero - y_modello) si distribuisce gaussianamente
Minimi quadrati ordinari

Tichinov parte dalla necessità di invertire operatori non invertibili (fare l'inversa di matrici non invertibili)
Motivazione matematica

Ridge Regression


Ricordate?

Riprendiamo il dataset delle case








Domande?

questa non la gaussianizzo con il logaritmo


















Domande?